home *** CD-ROM | disk | FTP | other *** search
/ Group 42-Sells Out! - The Information Archive / Group 42 Sells Out (Group 42) (1996).iso / hack / denning.txt < prev    next >
Text File  |  1995-11-26  |  61KB  |  1,094 lines

  1.  
  2. To be presented at the 13th National Computer Security Conference,
  3. Washington, D.C., Oct. 1-4, 1990.
  4.  
  5.  
  6.           Concerning Hackers Who Break into Computer Systems
  7.  
  8.                          Dorothy E. Denning
  9.            Digital Equipment Corp., Systems Research Center
  10.                130 Lytton Ave., Palo Alto, CA 94301
  11.                  415-853-2252, denning@src.dec.com
  12.  
  13.  
  14. Abstract
  15.  
  16. A diffuse group of people often called ``hackers'' has been
  17. characterized as unethical, irresponsible, and a serious danger to
  18. society for actions related to breaking into computer systems.  This
  19. paper attempts to construct a picture of hackers, their concerns,
  20. and the discourse in which hacking takes place.  My initial findings
  21. suggest that hackers are learners and explorers who want to help
  22. rather than cause damage, and who often have very high standards
  23. of behavior.  My findings also suggest that the discourse surrounding
  24. hacking belongs at the very least to the gray areas between larger
  25. conflicts that we are experiencing at every level of society and
  26. business in an information age where many are not computer literate.
  27. These conflicts are between the idea that information cannot be owned
  28. and the idea that it can, and between law enforcement and the First
  29. and Fourth Amendments.  Hackers have raised serious issues about
  30. values and practices in an information society.  Based on my findings,
  31. I recommend that we work closely with hackers, and suggest several
  32. actions that might be taken.
  33.  
  34.  
  35. 1.  Introduction
  36.  
  37. The world is crisscrossed with many different networks that are used
  38. to deliver essential services and basic necessities -- electric power,
  39. water, fuel, food, goods, to name a few.  These networks are all
  40. publicly accessible and hence vulnerable to attacks, and yet virtually
  41. no attacks or disruptions actually occur.
  42.  
  43. The world of computer networking seems to be an anomaly in the
  44. firmament of networks.  Stories about attacks, breakins, disruptions,
  45. theft of information, modification of files, and the like appear
  46. frequently in the newspapers.  A diffuse group called ``hackers''
  47. is often the target of scorn and blame for these actions.  Why are
  48. computer networks any different from other vulnerable public networks?
  49. Is the difference the result of growing pains in a young field?
  50. Or is it the reflection of deeper tensions in our emerging information
  51. society?
  52.  
  53. There are no easy or immediate answers to these questions.  Yet it
  54. is important to our future in a networked, information-dependent
  55. world that we come to grips with them.  I am deeply interested in
  56. them.  This paper is my report of what I have discovered in the early
  57. stages of what promises to be a longer investigation.  I have
  58. concentrated my attention in these early stages on the hackers
  59. themselves.  Who are they?  What do they say?  What motivates them?
  60. What are their values?  What do that have to say about public policies
  61. regarding information and computers?  What do they have to say about
  62. computer security?
  63.  
  64. From such a profile I expect to be able to construct a picture of
  65. the discourses in which hacking takes place.  By a discourse I mean
  66. the invisible background of assumptions that transcends individuals
  67. and governs our ways of thinking, speaking, and acting.  My initial
  68. findings lead me to conclude that this discourse belongs at the very
  69. least to the gray areas between larger conflicts that we are
  70. experiencing at every level of society and business, the conflict
  71. between the idea that information cannot be owned and the idea that
  72. it can, and the conflict between law enforcement and the First and
  73. Fourth Amendments.
  74.  
  75. But, enough of the philosophy.  On with the story!
  76.  
  77.  
  78. 2.  Opening Moves
  79.  
  80. In late fall of 1989, Frank Drake (not his real name), Editor of
  81. the now defunct cyberpunk magazine W.O.R.M., invited me to be
  82. interviewed for the magazine.  In accepting the invitation, I hoped
  83. that something I might say would discourage hackers from breaking
  84. into systems.  I was also curious about the hacker culture.  This
  85. seemed like a good opportunity to learn about it.
  86.  
  87. The interview was conducted electronically.  I quickly discovered
  88. that I had much more to learn from Drake's questions than to teach.
  89. For example, he asked: ``Is providing computer security for large
  90. databases that collect information on us a real service?  How do
  91. you balance the individual's privacy vs. the corporations?''  This
  92. question surprised me.  Nothing that I had read about hackers ever
  93. suggested that they might care about privacy.  He also asked: ``What
  94. has [the DES] taught us about what the government's (especially NSA's)
  95. role in cryptography should be?''  Again, I was surprised to discover
  96. a concern for the role of the government in computer security.  I
  97. did not know at the time that I would later discover considerable
  98. overlap in the issues discussed by hackers and those of other computer
  99. professionals.
  100.  
  101. I met with Drake to discuss his questions and views.  After our
  102. meeting, we continued our dialog electronically with me interviewing
  103. him.  This gave me the opportunity to explore his views in greater
  104. depth.  Both interviews appear in ``Computers Under Attack,''
  105. edited by Peter Denning [DenningP90].
  106.  
  107. My dialog with Drake increased my curiosity about hackers.  I read
  108. articles and books by or about hackers.  In addition, I had discussions
  109. with nine hackers whom I will not mention by name.  Their ages ranged
  110. from 17 to 28.
  111.  
  112. The word ``hacker'' has taken on many different meanings ranging
  113. from 1) ``a person who enjoys learning the details of computer systems
  114. and how to stretch their capabilities'' to 2) ``a malicious or
  115. inquisitive meddler who tries to discover information by poking around
  116. .. possibly by deceptive or illegal means ...'' [Steele83]  The
  117. hackers described in this paper satisfy both of these definitions,
  118. although all of the hackers I spoke with said they did not engage
  119. in or approve of malicious acts that damage systems or files.  Thus,
  120. this paper is not about malicious hackers.  Indeed, my research so
  121. far suggests that there are very few malicious hackers.   Neither
  122. is this paper about career criminals who, for example, defraud
  123. businesses, or about people who use stolen credit cards to purchase
  124. goods.  The characteristics of many of the hackers I am writing about
  125. are summed up in the words of one of the hackers: ``A hacker is someone
  126. that experiments with systems... [Hacking] is playing with systems
  127. and making them do what they were never intended to do.  Breaking
  128. in and making free calls is just a small part of that.  Hacking is
  129. also about freedom of speech and free access to information -- being
  130. able to find out anything.  There is also the David and Goliath side
  131. of it, the underdog vs. the system, and the ethic of being a folk
  132. hero, albeit a minor one.''
  133.  
  134. Richard Stallman, founder of the Free Software Foundation who calls
  135. himself a hacker according to the first sense of the word above,
  136. recommends calling security-breaking hackers ``crackers''
  137. [Stallman84].  While this description may be more accurate, I shall
  138. use the term ``hacker'' since the people I am writing about call
  139. themselves hackers and all are interested in learning about computer
  140. and communication systems.  However, there are many people like
  141. Stallman who call themselves hackers and do not engage in illegal
  142. or deceptive practices; this paper is also not about those hackers.
  143.  
  144. In what follows I will report on what I have learned about hackers
  145. from hackers.  I will organize the discussion around the principal
  146. domains of concerns I observed.  I recommend Meyer's thesis [Meyer89]
  147. for a more detailed treatment of the hackers' social culture and
  148. networks, and Meyer and Thomas [MeyerThomas90] for an interesting
  149. interpretation of the computer underground as a postmodernist rejection
  150. of conventional culture that substitutes ``rational technological
  151. control of the present for an anarchic and playful future.''
  152.  
  153. I do not pretend to know all the concerns that hackers have, nor
  154. do I claim to have conducted a scientific study.  Rather, I hope
  155. that my own informal study motivates others to explore the area
  156. further.  It is essential that we as computer security professionals
  157. take into account hackers' concerns in the design of our policies,
  158. procedures, laws regulating computer and information access, and
  159. educational programs.  Although I speak about security-breaking hackers
  160. as a group, their competencies, actions, and views are not all the
  161. same.  Thus, it is equally important that our policies and programs
  162. take into account individual differences.
  163.  
  164. In focusing on what hackers say and do, I do not mean for a moment
  165. to set aside the concerns of the owners and users of systems that
  166. hackers break into, the concerns of law enforcement personnel, or
  167. our own concerns as computer security professionals.  But I do
  168. recommend that we work closely with hackers as well as these other
  169. groups to design new approaches and programs for addressing the
  170. concerns of all.   Like ham radio operators, hackers exist, and it
  171. is in our best interest that we learn to communicate and work with
  172. them rather than against them.
  173.  
  174. I will suggest some actions that we might consider taking, and I
  175. invite others to reflect on these and suggest their own.  Many of
  176. these suggestions are from the hackers themselves; others came from
  177. the recommendations of the ACM Panel on Hacking [Lee86] and from
  178. colleagues.
  179.  
  180. I grouped the hackers' concerns into five categories: access to
  181. computers and information for learning; thrill, excitement and
  182. challenge; ethics and avoiding damage; public image and treatment;
  183. and privacy and first amendment rights.  These are discussed in
  184. the next five subsections.  I have made an effort to present my
  185. findings as uncritical observations.  The reader should not infer
  186. that I either approve or disapprove of actions hackers take.
  187.  
  188.  
  189. 3.  Access to Computers and Information for Learning
  190.  
  191. Although Levy's book ``Hackers'' [Levy84] is not about today's
  192. security-breaking hackers, it articulates and interprets a ``hacker
  193. ethic'' that is shared by many of these hackers.  The ethic includes
  194. two key principles that were formulated in the early days of the
  195. AI Lab at MIT: ``Access to computers -- and anything which might
  196. teach you something about the way the world works -- should be
  197. unlimited and total,'' and ``All information should be free.''  In
  198. the context in which these principles were formulated, the computers
  199. of interest were research machines and the information was software
  200. and systems information.
  201.  
  202. Since Stallman is a leading advocate of open systems and freedom
  203. of information, especially software, I asked him what he means by
  204. this.  He said: ``I believe that all generally useful information
  205. should be free. By `free' I am not referring to price, but rather
  206. to the freedom to copy the information and to adapt it to one's own
  207. uses.''  By ``generally useful'' he does not include confidential
  208. information about individuals or credit card information, for example.
  209. He further writes: ``When information is generally useful,
  210. redistributing it makes humanity wealthier no matter who is
  211. distributing and no matter who is receiving.''  Stallman has argued
  212. strongly against user interface copyright, claiming that it does
  213. not serve the users or promote the evolutionary process [Stallman90].
  214.  
  215. I asked hackers whether all systems should be accessible and all
  216. information should be free.  They said that it is OK if some systems
  217. are closed and some information, mainly confidential information
  218. about individuals, is not accessible.  They make a distinction between
  219. information about security technology, e.g., the DES, and confidential
  220. information protected by that technology, arguing that it is the
  221. former that should be accessible.   They said that information hoarding
  222. is inefficient and slows down evolution of technology.  They also
  223. said that more systems should be open so that idle resources are
  224. not wasted.  One hacker said that the high costs of communication
  225. hurts the growth of the information economy.
  226.  
  227. These views of information sharing seem to go back at least as far
  228. as the 17th and 18th Centuries.  Samuelson [Samuelson89] notes that
  229. ``The drafters of the Constitution, educated in the Enlightenment
  230. tradition, shared that era's legacy of faith in the enabling powers
  231. of knowledge for society as well as the individual.''  She writes
  232. that our current copyright laws, which protect the expression of
  233. information, but not the information itself, are based on the belief
  234. that unfettered and widespread dissemination of information promotes
  235. technological progress. (Similarly for patent laws which protect
  236. devices and processes, not the information about them.)  She cites
  237. two recent court cases where courts reversed the historical trend
  238. and treated information as ownable property.  She raises questions
  239. about whether in entering the Information Age where information is
  240. the source of greatest wealth, we have outgrown the Enlightenment
  241. tradition and are coming to treat information as property.
  242.  
  243. In a society where knowledge is said to be power, Drake expressed
  244. particular concern about what he sees as a growing information gap
  245. between the rich and poor.  He would like to see information that
  246. is not about individuals be made public, although it could still
  247. be owned.  He likes to think that companies would actually find it
  248. to their advantage to share information.  He noted how IBM's disclosure
  249. of the PC allowed developers to make more products for the computers,
  250. and how Adobe's disclosure of their fonts helped them compete against
  251. the Apple-Microsoft deal.  He recognizes that in our current political
  252. framework, it is difficult to make all information public, because
  253. complicated structures have been built on top of an assumption that
  254. certain information will be kept secret.  He cites our defense policy,
  255. which is founded on secrecy for military information, as an example.
  256.  
  257. Hackers say they want access to information and computing and network
  258. resources in order to learn.  Both Levy [Levy84] and Landreth
  259. [Landreth89] note that hackers have an intense, compelling interest
  260. in computers and learning, and many go into computers as a profession.
  261. Some hackers break into systems in order to learn more about how
  262. the systems work.  Landreth says these hackers want to remain
  263. undiscovered so that they can stay on the system as long as possible.
  264. Some of them devote most of their time to learning how to break the
  265. locks and other security mechanisms on systems; their background
  266. in systems and programming varies considerably.  One hacker wrote
  267. ``A hacker sees a security hole and takes advantage of it because
  268. it is there, not to destroy information or steal.  I think our
  269. activities would be analogous to someone discovering methods of
  270. acquiring information in a library and becoming excited and perhaps
  271. engrossed.''
  272.  
  273. We should not underestimate the effectiveness of the networks in
  274. which hackers learn their craft.  They do research, learn about
  275. systems, work in groups, write, and teach others.  One hacker said
  276. that he belongs to a study group with the mission of churning out
  277. files of information and learning as much as possible.  Within the
  278. group, people specialize, collaborate on research project, share
  279. information and news, write articles, and teach other about their
  280. areas of specialization.  Hackers have set up a private system of
  281. education that engages them, teaches them to think, and allows them
  282. to apply their knowledge in purposeful, if not always legal,
  283. activity.   Ironically, many of our nation's classrooms have been
  284. criticized for providing a poor learning environment that seems to
  285. emphasize memorization rather than thinking and reasoning.  One hacker
  286. reported that through volunteer work with a local high school, he
  287. was trying to get students turned on to learning.
  288.  
  289. Many hackers say that the legitimate computer access they have through
  290. their home and school computers do not meet their needs.  One student
  291. told me that his high school did not offer anything beyond elementary
  292. courses in BASIC and PASCAL, and that he was bored by these.  Hans
  293. Huebner, a hacker in Germany who goes by the name Pengo, wrote in
  294. a note to the RISKS Forum [Huebner89] : ``I was just interested in
  295. computers, not in the data which has been kept on their disks. As
  296. I was going to school at that time, I didn't even have the money
  297. to buy [my] own computer.  Since CP/M (which was the most sophisticated
  298. OS I could use on machines which I had legal access to) didn't turn
  299. me on anymore, I enjoyed the lax security of the systems I had access
  300. to by using X.25 networks.  You might point out that I should have
  301. been patient and wait[ed] until I could go to the university and
  302. use their machines.  Some of you might understand that waiting was
  303. just not the thing I was keen on in those days.''
  304.  
  305. Brian Harvey, in his position paper [Harvey86] for the ACM Panel on
  306. Hacking, claims that the computer medium available to students, e.g.,
  307. BASIC and floppy disks, is inadequate for challenging intellectual
  308. work.  His recommendation is that students be given access to real
  309. computing power, and that they be taught how to use that power
  310. responsibly.  He describes a program he created at a public high school
  311. in Massachusetts during the period 1979-1982.  They installed a
  312. PDP-11/70 and let students and teachers carry out the administration
  313. of the system.  Harvey assessed that putting the burden of dealing
  314. with the problems of malicious users on the students themselves was
  315. a powerful educational force.  He also noted that the students who
  316. had the skill and interest to be password hackers were discouraged
  317. from this activity because they also wanted to keep the trust of
  318. their colleagues in order that they could acquire ``superuser'' status
  319. on the system.
  320.  
  321. Harvey also makes an interesting analogy between teaching computing
  322. and teaching karate.  In karate instruction, students are introduced
  323. to the real, adult community.  They are given access to a powerful,
  324. deadly weapon, and at the same time are taught discipline and to
  325. not abuse the art.  Harvey speculates that the reason that students
  326. do not misuse their power is that they know they are being trusted
  327. with something important, and they want to live up to that trust.
  328. Harvey applied this principle when he set up the school system.
  329.  
  330. The ACM panel endorsed Harvey's recommendation, proposing a
  331. three-tiered computing environment with local, district-wide, and
  332. nation-wide networks.  They recommended that computer professionals
  333. participate in this effort as mentors and role models.   They also
  334. recommended that outside of schools, government and industry be
  335. encouraged to establish regional computing centers using donated
  336. or re-cycled equipment; that students be apprenticed to local companies
  337. either part-time on a continuing basis or on a periodic basis; and,
  338. following a suggestion from Felsenstein [Felsenstein86] for a
  339. ``Hacker's League,'' that a league analogous to the Amateur Radio
  340. Relay League be established to make contributed resources available
  341. for educational purposes.
  342.  
  343. Drake said he liked these recommendations.  He said that if hackers
  344. were given access to powerful systems through a public account system,
  345. they would supervise themselves.  He also suggested that Computer
  346. Resource Centers be established in low-income areas in order to help
  347. the poor get access to information.  Perhaps hackers could help run
  348. the centers and teach the members of the community how to use the
  349. facilities.  One of my colleagues suggested cynically that the hackers
  350. would only use this to teach the poor how to hack rich people's
  351. systems.  A hacker responded by saying this was ridiculous; hackers
  352. would not teach people how to break into systems, but rather how
  353. to use computers effectively and not be afraid of them.
  354. In addition, the hackers I spoke with who had given up illegal
  355. activities said they stopped doing so when they got engaged in other
  356. work.
  357.  
  358. Geoff Goodfellow and Richard Stallman have reported that they have
  359. given hackers accounts on systems that they manage, and that the
  360. hackers have not misused the trust granted to them.  Perhaps
  361. universities could consider providing accounts to pre-college students
  362. on the basis of recommendations from their teachers or parents.
  363. The students might be challenged to work on the same homework problems
  364. assigned in courses or to explore their own interests.  Students
  365. who strongly dislike the inflexibility of classroom learning might
  366. excel in an environment that allows them to learn on their own, in
  367. much the way that hackers have done.
  368.  
  369.  
  370. 4.  Thrill, Excitement, and Challenge
  371.  
  372. One hacker wrote that ``Hackers understand something basic about
  373. computers, and that is that they can be enjoyed.  I know none who
  374. hack for money, or hack to frighten the company, or hack for anything
  375. but fun.''
  376.  
  377. In the words of another hacker, ``Hacking was the ultimate cerebral
  378. buzz for me.  I would come home from another dull day at school,
  379. turn my computer on, and become a member of the hacker elite.  It
  380. was a whole different world where there were no condescending adults
  381. and you were judged only by your talent.  I would first check in
  382. to the private Bulletin Boards where other people who were like me
  383. would hang out, see what the news was in the community, and trade
  384. some info with people across the country.  Then I would start actually
  385. hacking.  My brain would be going a million miles an hour and I'd
  386. basically completely forget about my body as I would jump from one
  387. computer to another trying to find a path into my target.  It was
  388. the rush of working on a puzzle coupled with the high of discovery
  389. many magnitudes intensified.  To go along with the adrenaline rush
  390. was the illicit thrill of doing something illegal. Every step I made
  391. could be the one that would bring the authorities crashing down on
  392. me.  I was on the edge of technology and exploring past it, spelunking
  393. into electronic caves where I wasn't supposed to be.''
  394.  
  395. The other hackers I spoke with made similar statements about the
  396. fun and challenge of hacking.  In SPIN magazine [Dibbel90], reporter
  397. Julian Dibbell speculated that much of the thrill comes from the
  398. dangers associated with the activity, writing that ``the technology
  399. just lends itself to cloak-and-dagger drama,'' and that ``hackers
  400. were already living in a world in which covert action was nothing
  401. more than a game children played.''
  402.  
  403. Eric Corley [Corley89] characterizes hacking as an evolved form of
  404. mountain climbing.  In describing an effort to construct a list of
  405. active mailboxes on a Voice Messaging System, he writes ``I suppose
  406. the main reason I'm wasting my time pushing all these buttons is
  407. simply so that I can make a list of something that I'm not supposed
  408. to have and be the first person to accomplish this.''  He said that
  409. he was not interested in obtaining an account of his own on the system.
  410. Gordon Meyer says he found this to be a recurring theme: ``We aren't
  411. supposed to be able to do this, but we can'' -- so they do.
  412.  
  413. One hacker said he was now working on anti-viral programming.  He
  414. said it was almost as much fun as breaking into systems, and that
  415. it was an intellectual battle against the virus author.
  416.  
  417.  
  418. 5.  Ethics and Avoiding Damage
  419.  
  420. All of the hackers I spoke with said that malicious hacking was morally
  421. wrong.  They said that most hackers are not intentionally malicious,
  422. and that they themselves are concerned about causing accidental
  423. damage.  When I asked Drake about the responsibility of a person
  424. with a PC and modem, his reply included not erasing or modifying
  425. anyone else's data, and not causing a legitimate user on a system
  426. any problems.  Hackers say they are outraged when other hackers cause
  427. damage or use resources that would be missed, even if the results
  428. are unintentional and due to incompetence.  One hacker wrote ``I
  429. have ALWAYS strived to do NO damage, and inconvenience as few people
  430. as possible.  I NEVER, EVER, EVER DELETE A FILE.  One of the first
  431. commands I do on a new system is disable the delete file command.''
  432. Some hackers say that it is unethical to give passwords and similar
  433. security-related information to persons who might do damage.  In
  434. the recent incident where a hacker broke into Bell South and downloaded
  435. a text file on the emergency 911 service, hackers say that there
  436. was no intention to use this knowledge to break into or sabotage
  437. the 911 system.  According to Emmanuel Goldstein [Goldstein90], the
  438. file did not even contain information about how to break into the
  439. 911 system.
  440.  
  441. The hackers also said that some break-ins were unethical, e.g.,
  442. breaking into hospital systems, and that it is wrong to read
  443. confidential information about individuals or steal classified
  444. information.  All said it was wrong to commit fraud for personal
  445. profit.
  446.  
  447. Although we as computer security professionals often disagree with
  448. hackers about what constitutes damage, the ethical standards listed
  449. sound much like our own.  Where the hackers' ethics differs from
  450. the standards adopted by most in the computer security community
  451. is that hackers say it is not unethical to break into many systems,
  452. use idle computer and communications resources, and download system
  453. files in order to learn.  Goldstein says that hacking is not wrong:
  454. it is not the same as stealing, and uncovers design flaws and security
  455. deficiencies [Goldstein89].
  456.  
  457. Brian Reid speculates that a hacker's ethics may come from not being
  458. raised properly as a civilized member of society, and not appreciating
  459. the rules of living in society.  One hacker responded to this with
  460. ``What does `being brought up properly' mean?  Some would say that
  461. it is `good' to keep to yourself, mind your own business.  Others
  462. might argue that it is healthy to explore, take risks, be curious
  463. and discover.'' Brian Harvey [Harvey86] notes that many hackers are
  464. adolescents, and that adolescents are at a less developed stage of
  465. moral development than adults, where they might not see how the effects
  466. of their actions hurt others.  Larry Martin [Martin89] claims that
  467. parents, teachers, the press, and others in society are not aware
  468. of their responsibility to contribute to instilling ethical values
  469. associated with computer use.  This could be the consequence of the
  470. youth of the computing field; many people are still computer illiterate
  471. and cultural norms may be lagging behind advances in technology and
  472. the growing dependency on that technology by businesses and society.
  473. Hollinger and Lanza-Kaduce speculate that the cultural normative
  474. messages about the use and abuse of computer technology have been
  475. driven by the adaption of criminal laws [HollingerLanza-Kaduce88],
  476. which have been mainly in the last decade.  They also speculate that
  477. hacking may be encouraged during the process of becoming computer
  478. literate.  Some of my colleagues say that hackers are irresponsible.
  479. One hacker responded ``I think it's a strong indication of the amount
  480. of responsibility shown that so FEW actually DAMAGING incidents are
  481. known.''
  482.  
  483. But we must not overlook that the differences in ethics also reflect
  484. a difference in philosophy about information and information handling
  485. resources; whereas hackers advocate sharing, we seem to be advocating
  486. ownership as property.  The differences also represent an opportunity
  487. to examine our own ethical behavior and our practices for information
  488. sharing and protection.  For example, one hacker wrote ``I will accept
  489. that it is morally wrong to copy some proprietary software, however,
  490. I think that it is morally wrong to charge $6000 for a program that
  491. is only around 25K long.''  Hence, I shall go into a few of the ethical
  492. points raised by hackers more closely.  It is not a simple case of
  493. good or mature (us) against bad or immature (hackers), or of teaching
  494. hackers a list of rules.
  495.  
  496. Many computer professionals argue the moral questions by analogy,
  497. e.g., see Martin [Martin89].  The analogies are then used to justify
  498. their judgement of a hacker's actions as unethical.  Breaking into
  499. a system is compared with breaking into a house, and downloading
  500. information and using computer and telecommunications services is
  501. compared with stealing tangible goods.  But, say hackers, the
  502. situations are not the same.  When someone breaks into a house, the
  503. objective is to steal goods, which are often irreplaceable, and
  504. property is often damaged in the process.  By contrast, when a hacker
  505. breaks into a system, the objective is to learn and avoid causing
  506. damage.  Downloaded information is copied, not stolen, and still
  507. exists on the original system.  Moreover, as noted earlier, information
  508. has not been traditionally regarded as property.  Dibbel [Dibbel90]
  509. says that when the software industries and phone companies claim
  510. losses of billions of dollars to piracy, they are not talking about
  511. goods that disappear from the shelves and could have been sold.
  512.  
  513. We often say that breaking into a system implies a lack of caring
  514. for the system's owner and authorized users.  But, one hacker says
  515. that the ease of breaking into a system reveals a lack of caring
  516. on the part of the system manager to protect user and company assets,
  517. or failure on the part of vendors to warn managers about the
  518. vulnerabilities of their systems.  He estimated his success rate
  519. of getting in at 10-15%, and that is without spending more than an
  520. hour on any one target system.  Another hacker says that he sees
  521. messages from vendors notifying the managers, but that the managers
  522. fail to take action.
  523.  
  524. Richard Pethia of CERT (Computer Emergency Response Team) reports
  525. that they seldom see cases of malicious damage caused by hackers,
  526. but that the break-ins are nevertheless disruptive because system
  527. users and administrators want to be sure that nothing was damaged.
  528. (CERT suggests that sites reload system software from secure backups
  529. and change all user passwords in order to protect against possible
  530. back doors and Trojan Horses that might have been planted by the
  531. hacker.  Pethia also noted that prosecutors are generally called
  532. for government sites, and are being called for non-government sites
  533. with increasing frequency.)  Pethia says that break-ins also generate
  534. a loss of trust in the computing environment, and may lead to adoption
  535. of new policies that are formulated in a panic or management edicts
  536. that severely restrict connectivity to outside systems.   Brian Harvey
  537. says that hackers cause damage by increasing the amount of paranoia,
  538. which in turn leads to tighter security controls that diminish the
  539. quality of life for the users.  Hackers respond to these points by
  540. saying they are the scapegoats for systems that are not adequately
  541. protected.  They say that the paranoia is generated by ill-founded
  542. fears and media distortions (I will return to this point later),
  543. and that security need not be oppressive to keep hackers out; it
  544. is mainly making sure that passwords and system defaults are
  545. well-chosen.
  546.  
  547. Pethia says that some intruders seem to be disruptive to prove a
  548. point, such as that the systems are vulnerable, the security personnel
  549. are incompetent, or ``it's not nice to say bad things about hackers.''
  550. In the N.Y. Times, John Markoff [Markoff90] wrote that the hacker
  551. who claimed to have broken into Cliff Stoll's system said he was
  552. upset by Stoll's portrayal of hackers in ``The Cuckoo's Egg''
  553. [Stoll90].   Markoff reported that the caller said: ``He [Stoll]
  554. was going on about how he hates all hackers, and he gave pretty much
  555. of a one-sided view of who hackers are.''
  556.  
  557. ``The Cuckoo's Egg'' captures much of the popular stereotypes of
  558. hackers.  Criminologist Jim Thomas criticizes it for presenting a
  559. simplified view of the world, one where everything springs from the
  560. forces of light (us) or of darkness (hackers) [Thomas90].  He claims
  561. that Stoll fails to see the similarities between his own activities
  562. (e.g., monitoring communications, ``borrowing'' monitors without
  563. authorization, shutting off network access without warning, and lying
  564. to get information he wants) and those of hackers.  He points out
  565. Stoll's use of pejorative words such as ``varmint'' to describe
  566. hackers, and Stoll's quote of a colleague: ``They're technically
  567. skilled but ethically bankrupt programmers without any respect for
  568. others' work -- or privacy.  They're not destroying one or two
  569. programs.  They're trying to wreck the cooperation that builds our
  570. networks.'' [Stoll90, p. 159]  Thomas writes ``at an intellectual
  571. level,  [Stoll] provides a persuasive, but simplistic, moral imagery
  572. of the nature of right and wrong, and provides what -- to a lay reader
  573. -- would seem a compelling justification for more statutes and severe
  574. penalties against the computer underground.  This is troublesome
  575. for two reasons.  First, it leads to a mentality of social control
  576. by law enforcement during a social phase when some would argue we
  577. are already over-controlled.  Second, it invokes a punishment model
  578. that assumes we can stamp out behaviors to which we object if only
  579. we apprehend and convict a sufficient number of violators. ...  There
  580. is little evidence that punishment will in the long run reduce any
  581. given offense, and the research of Gordon Meyer and I suggests that
  582. criminalization may, in fact, contribute to the growth of the computer
  583. underground.''
  584.  
  585.  
  586. 6. Public Image and Treatment
  587.  
  588. Hackers express concern about their negative public image and
  589. identity.  As noted earlier, hackers are often portrayed as being
  590. irresponsible and immoral.  One hacker said that ``government
  591. propaganda is spreading an image of our being at best, sub-human,
  592. depraved, criminally inclined, morally corrupt, low life.  We need
  593. to prove that the activities that we are accused of (crashing systems,
  594. interfering with life support equipment, robbing banks, and jamming
  595. 911 lines) are as morally abhorent to us as they are to the general
  596. public.''
  597.  
  598. The public identity of an individual or group is generated in part
  599. by the actions of the group interacting with the standards of the
  600. community observing those actions.  What then accounts for the
  601. difference between the hacker's public image and what they say about
  602. themselves?  One explanation may be the different standards.  Outside
  603. the hacking community, the simple act of breaking into systems is
  604. regarded as unethical by many.  The use of pejorative words like
  605. ``vandal'' and ``varmint'' reflect this discrepency in ethics.  Even
  606. the word ``criminal'' carries with it connotations of someone evil;
  607. hackers say they are not criminal in this sense.  Katie Hafner notes
  608. that Robert Morris, who was convicted of launching the Internet worm,
  609. was likened to a terrorist even though the worm did not destroy data
  610. [Hafner90].
  611.  
  612. Distortions of events and references to potential threats also create
  613. an image of persons who are dangerous.  Regarding the 911 incident
  614. where a hacker downloaded a file from Bell South, Goldstein reported
  615. ``Quickly, headlines screamed that hackers had broken into the 911
  616. system and were interfering with emergency telephone calls to the
  617. police.  One newspaper report said there were no indications that
  618. anyone had died or been injured as a result of the intrusions.  What
  619. a relief.  Too bad it wasn't true.'' [Goldstein90]  In fact, the
  620. hackers involved with the 911 text file had not broken into the 911
  621. system.  The dollar losses attributed to hacking incidents also are
  622. often highly inflated.
  623.  
  624. Thomas and Meyer [ThomasMeyer90] say that the rhetoric depicting
  625. hackers as a dangerous evil contributes to a ``witch hunt'' mentality,
  626. wherein a group is first labeled as dangerous, and then enforcement
  627. agents are mobilized to exorcise the alleged social evil.  They see
  628. the current sweeps against hackers as part of a reaction to a broader
  629. fear of change, rather than to the actual crimes committed.
  630.  
  631. Hackers say they are particularly concerned that computer security
  632. professionals and system managers do not appear to understand hackers
  633. or be interested in their concerns.  Hackers say that system managers
  634. treat them like enemies and criminals, rather than as potential helpers
  635. in their task of making their systems secure.  This may reflect
  636. managers' fears about hackers, as well as their responsibilities
  637. to protect the information on their systems.  Stallman says that
  638. the strangers he encounters using his account are more likely to
  639. have a chip on their shoulder than in the past; he attributes this
  640. to a harsh enforcer mentality adopted by the establishment.  He says
  641. that network system managers start out with too little trust and
  642. a hostile attitude toward strangers that few of the strangers deserve.
  643. One hacker said that system managers show a lack of openness to those
  644. who want to learn.
  645.  
  646. Stallman also says that the laws make the hacker scared to communicate
  647. with anyone even slightly ``official,'' because that person might
  648. try to track the hacker down and have him or her arrested.  Drake
  649. raised the issue of whether the laws could differentiate between
  650. malicious and nonmalicious hacking, in support of a ``kinder, gentler''
  651. relationship between hackers and computer security people.  In fact,
  652. many states such as California initially passed computer crime laws
  653. that excluded malicious hacking; it was only later that these laws
  654. were amended to include nonmalicious actions [HollingerLanza-Kaduce88].
  655. Hollinger and Lanza-Kaduce speculate that these amendments and other
  656. new laws were catalyzed mainly by media events, especially the reports
  657. on the ``414 hackers'' and the movie ``War Games,'' which created
  658. a perception of hacking as extremely dangerous, even if that perception
  659. was not based on facts.
  660.  
  661. Hackers say they want to help system managers make their systems
  662. more secure.  They would like managers to recognize and use their
  663. knowledge about design flaws and the outsider threat problem.
  664. Landreth [Landreth89] suggests ways in which system managers can
  665. approach hackers in order to turn them into colleagues, and Goodfellow
  666. also suggests befriending hackers [Goodfellow83].  John Draper (Cap'n
  667. Crunch) says it would help if system managers and the operators of
  668. phone companies and switches could coopererate in tracing a hacker
  669. without bringing in law enforcement authorities.
  670.  
  671. Drake suggests giving hackers free access in exchange for helping
  672. with security, a suggestion that I also heard from several hackers.
  673. Drake says that the current attitude of treating hackers as enemies
  674. is not very conducive to a solution, and by belittling them, we only
  675. cause ourselves problems.
  676.  
  677. I asked some of the hackers whether they'd be interested in breaking
  678. into systems if the rules of the ``game'' were changed so that instead
  679. of being threatened by prosecution, they were invited to leave a
  680. ``calling card'' giving their name, phone number, and method of
  681. breaking in.  In exchange, they would get recognition and points
  682. for each vulnerability they discovered.  Most were interested in
  683. playing; one hacker said he would prefer monetary reward since he
  684. was supporting himself.  Any system manager interested in trying
  685. this out could post a welcome message inviting hackers to leave their
  686. cards.  This approach could have the advantage of not only letting
  687. the hackers contribute to the security of the system, but of allowing
  688. the managers to quickly recognize the potentially malicious hackers,
  689. since they are unlikely to leave their cards.  Perhaps if hackers
  690. are given the opportunity to make contributions outside the
  691. underground, this will dampen their desire to pursue illegal activities.
  692.  
  693. Several hackers said that they would like to be able to pursue their
  694. activities legally and for income.  They like breaking into systems,
  695. doing research on computer security, and figuring out how to protect
  696. against vulnerabilities.  They say they would like to be in a position
  697. where they have permission to hack systems.  Goodfellow suggests
  698. hiring hackers to work on tiger teams that are commissioned to locate
  699. vulnerabilities in systems through penetration testing.  Baird
  700. Info-Systems Safeguards, Inc., a security consulting firm, reports
  701. that they have employed hackers on several assignments [Baird87].
  702. They say the hackers did not violate their trust or the trust of
  703. their clients, and performed in an outstanding manner.  Baird believes
  704. that system vulnerabilities can be better identified by employing
  705. people who have exploited systems.
  706.  
  707. One hacker suggested setting up a clearinghouse that would match
  708. hackers with companies that could use their expertise, while
  709. maintaining anonymity of the hackers and ensuring confidentiality
  710. of all records.  Another hacker, in describing an incident where
  711. he discovered a privileged account without a password, said ``What
  712. I (and others) wish for is a way that hackers can give information
  713. like this to a responsible source, AND HAVE HACKERS GIVEN CREDIT
  714. FOR HELPING! As it is, if someone told them that `I'm a hacker, and
  715. I REALLY think you should know...' they would freak out, and run
  716. screaming to the SS [Secret Service] or the FBI. Eventually, the
  717. person who found it would be caught, and hauled away on some crazy
  718. charge.  If they could only just ACCEPT that the hacker was trying
  719. to help!''  The clearinghouse could also provide this type of service.
  720.  
  721. Hackers are also interested in security policy issues.  Drake expressed
  722. concern over how we handle information about computer security
  723. vulnerabilities.  He argues that it is better to make this information
  724. public than cover it up and pretend that it does not exist, and cites
  725. the CERT to illustrate how this approach can be workable.  Other
  726. hackers, however, argue for restricting initial dissemination of
  727. flaws to customers and users.  Drake also expressed concern about
  728. the role of the government, particularly the military, in
  729. cryptography.  He argues that NSA's opinion on a cryptographic standard
  730. should be taken with a large grain of salt because of their code
  731. breaking role.
  732.  
  733. Some security specialists are opposed to hiring hackers for security
  734. work, and Eugene Spafford has urged people not to do business with
  735. any company that hires a convicted hacker to work in the security
  736. area [ACM90].  He says that ``This is like having a known arsonist
  737. install a fire alarm.''   But, the laws are such that a person can
  738. be convicted for having done nothing other than break into a system;
  739. no serious damage (i.e., no ``computer arson'') is necessary.  Many
  740. of our colleagues admit to having broken into systems in the past,
  741. e.g., Geoff Goodfellow [Goodfellow83] and Brian Reid [Frenkel87];
  742. Reid is quoted as saying that because of the knowledge he gained
  743. breaking into systems as a kid, he was frequently called in to help
  744. catch people who break in.  Spafford says that times have changed,
  745. and that this method of entering the field is no longer socially
  746. acceptable, and fails to provide adequate training in computer science
  747. and computer engineering [Spafford89].  However, from what I have
  748. observed, many hackers do have considerable knowledge about
  749. telecommunications, data security, operating systems, programming
  750. languages, networks, and cryptography.  But, I am not challenging
  751. a policy to hire competent people of sound character.  Rather, I am
  752. challenging a strict policy that uses economic pressure to close
  753. a field of activity to all persons convicted of breaking into
  754. systems.   It is enough that a company is responsible for the behavior
  755. of its employees.  Each hacker can be considered for employment based
  756. on his or her own competency and character.
  757.  
  758. Some people have called for stricter penalties for hackers, including
  759. prison terms, in order to send a strong deterrent message to hackers.
  760. John Draper, who was incarcerated for his activities in the 1970's,
  761. argues that in practice this will only make the problem worse.  He
  762. told me that he was forced under threat to teach other inmates his
  763. knowledge of communications systems.  He believes that prison sentences
  764. will serve only to spread hacker's knowledge to career criminals.
  765. He said he was never approached by criminals outside the prison,
  766. but that inside the prison they had control over him.
  767.  
  768. One hacker said that by clamping down on the hobbyist underground,
  769. we will only be left with the criminal underground.  He said that
  770. without hackers to uncover system vulnerabilities, the holes will
  771. be left undiscovered, to be utilized by those likely to cause real
  772. damage.
  773.  
  774. Goldstein argues that the existing penalties are already way out
  775. of proportion to the acts committed, and that the reason is because
  776. of computers [Goldstein89].  He says that if Kevin Mitnick had
  777. committed crimes similar to those he committed but without a computer,
  778. he would have been classified as a mischief maker and maybe fined
  779. $100 for trespassing; instead, he was put in jail without bail
  780. [Goldstein89].  Craig Neidorf, a publisher and editor of the electronic
  781. newsletter ``Phrack,'' faces up to 31 years and a fine of $122,000
  782. for receiving, editing, and transmitting the downloaded text file
  783. on the 911 system [Goldstein90].
  784.  
  785.  
  786. 7.  Privacy and the First and Fourth Amendments
  787.  
  788. The hackers I spoke with advocated privacy protection for sensitive
  789. information about individuals.   They said they are not interested
  790. in invading people's privacy, and that they limited their hacking
  791. activities to acquiring information about computer systems or how
  792. to break into them.  There are, of course, hackers who break into
  793. systems such as the TRW credit database.  Emanuel Goldstein argues
  794. that such invasions of privacy took place before the hacker arrived
  795. [Harpers90].  Referring to credit reports, government files, motor
  796. vehicle records, and the ``megabytes of data piling up about each
  797. of us,'' he says that thousands of people legally can see and use
  798. this data, much of it erroneous.  He claims that the public has been
  799. misinformed about the databases, and that hackers have become
  800. scapegoats for the holes in the systems.  One hacker questioned the
  801. practice of storing sensitive personal information on open systems
  802. with dial-up access, the accrual of the information, the methods
  803. used to acquire it, and the purposes to which it is put.  Another
  804. hacker questioned the inclusion of religion and race in credit records.
  805.  
  806. Drake told me that he was concerned about the increasing amount of
  807. information about individuals that is stored in large data banks,
  808. and the inability of the individual to have much control over the
  809. use of that information.  He suggests that the individual might be
  810. co-owner of information collected about him or her, with control
  811. over the use of that information.  He also says that an individual
  812. should be free to withhold personal information, of course paying
  813. the consequences of doing so (e.g., not getting a drivers license
  814. or credit card).  (In fact, all Federal Government forms are required
  815. to contain a Privacy Act Statement that states how the information
  816. being collected will be used and, in some cases, giving the option
  817. of withholding the information.)
  818.  
  819. Goldstein has also challenged the practices of law enforcement agencies
  820. in their attempt to crack down on hackers [Goldstein90].  He said
  821. that all incoming and outgoing electronic mail used by ``Phrack''
  822. was monitored before the newsletter was shutdown by authorities.
  823. ``Had a printed magazine been shut down in this fashion after having
  824. all of their mail opened and read, even the most thick-headed
  825. sensationalist media types would have caught on: hey, isn't that
  826. a violation of the First Amendment?''  He also cites the shutdown
  827. of several bulletin boards as part of Operation Sun Devil, and quotes
  828. the administrator of the bulletin board Zygot as saying ``Should
  829. I start reading my users' mail to make sure they aren't saying anything
  830. naughty?  Should I snoop through all the files to make sure everyone
  831. is being good?  This whole affair is rather chilling.''  The
  832. administrator for the public system The Point wrote ``Today, there
  833. is no law or precedent which affords me ... the same legal rights
  834. that other common carriers have against prosecution should some other
  835. party (you) use my property (The Point) for illegal activities.
  836. That worries me ...''
  837.  
  838. About 40 personal computer systems and 23,000 data disks were seized
  839. under Operation Sun Devil, a two-year investigation involving the
  840. FBI, Secret Service, and other federal and local law enforcement
  841. officials.  In addition, the Secret Service acknowledges that its
  842. agents, acting as legitimate users, had secretly monitored computer
  843. bulletin boards [Markoff90a].  Markoff reports that California
  844. Representative Don Edwards, industry leader Mitchell Kapor, and civil
  845. liberties advocates are alarmed by these government actions, saying
  846. that they challenge freedom of speech under the First Amendment and
  847. protection against searches and seizures under the Fourth Amendment.
  848. Markoff asks: ``Will fear of hackers bring oppression?''
  849.  
  850. John Barlow writes ``The Secret Service may actually have done a
  851. service for those of us who love liberty.  They have provided us
  852. with a devil.  And devils, among their other galvanizing virtues,
  853. are just great for clarifying the issues and putting iron in your
  854. spine.'' [Barlow90]  Some of the questions that Barlow says need
  855. to be addressed include ``What are data and what is free speech?
  856. How does one treat property which has no physical form and can be
  857. infinitely reproduced?  Is a computer the same as a printing press?''
  858. Barlow urges those of us who understand the technology to address
  859. these questions, lest the answers be given to us by law makers and
  860. law enforcers who do not.   Barlow and Kapor are constituting the
  861. Computer Liberty Foundation to ``raise and disburse funds for
  862. education, lobbying, and litigation in the areas relating to digital
  863. speech and the extension of the Constitution into Cyberspace.''
  864.  
  865. 8.  Conclusions
  866.  
  867. Hackers say that it is our social responsibility to share information,
  868. and that it is information hoarding and disinformation that are the
  869. crimes.  This ethic of resource and information sharing contrasts
  870. sharply with computer security policies that are based on authorization
  871. and ``need to know.'' This discrepancy raises an interesting question:
  872. Does the hacker ethic reflects a growing force in society that stands
  873. for greater sharing of resources and information -- a reaffirmation
  874. of basic values in our constitution and laws?  It is important that
  875. we examine the differences between the standards of hackers, systems
  876. managers, users, and the public.  These differences may represent
  877. breakdowns in current practices, and may present new opportunities
  878. to design better policies and mechanisms for making computer resources
  879. and information more widely available.
  880.  
  881. The sentiment for greater information sharing is not restricted to
  882. hackers.  In the best seller ``Thriving on Chaos,'' Tom Peters
  883. [Peters87] writes about sharing within organizations: ``Information
  884. hoarding, especially by politically motivated, power-seeking staffs,
  885. has been commonplace throughout American industry, service and
  886. manufacturing alike.  It will be an impossible millstone around the
  887. neck of tomorrow's organizations.  Sharing is a must.''  Peters argues
  888. that information flow and sharing is fundamental to innovation and
  889. competetiveness.  On a broader scale, Peter Drucker [Drucker89] says
  890. that the ``control of information by government is no longer possible.
  891. Indeed, information is now transnational.  Like money, it has no
  892. `fatherland.' ''
  893.  
  894. Nor is the sentiment restricted to people outside the computer security
  895. field.  Harry DeMaio [DeMaio89] says that our natural urge is to
  896. share information, and that we are suspicious of organizations and
  897. individuals who are secretive.  He says that information is exchanged
  898. out of ``want to know'' and mutual accommodation rather than ``need
  899. to know.''  If this is so, then some of our security policies are
  900. out of step with the way people work.  Peter Denning [DenningP89]
  901. says that information sharing will be widespread in the emerging
  902. worldwide networks of computers and that we need to focus on ``immune
  903. systems'' that protect against mistakes in our designs and recover
  904. from damage.
  905.  
  906. I began my investigation of hackers with the question: who are they
  907. and what is their culture and discourse?  My investigation uncovered
  908. some of their concerns, which provided the organizational structure
  909. to this paper, and several suggestions for new actions that might
  910. be taken.  My investigation also opened up a broader question:  What
  911. are the clashing discourses that the hackers stand at the battle
  912. lines of?  Is it owning or restricting information vs. sharing
  913. information -- a tension between an age-old tradition of controlling
  914. information as property and the Englightenment tradition of sharing
  915. and disseminating information?  Is it controlling access based on
  916. ``need to know,'' as determined by the information provider, vs.
  917. ``want to know,'' as determined by the person desiring access?
  918. Is it law enforcement vs. freedoms granted under the First and Fourth
  919. Amendments?  The answers to these questions, as well as those raised
  920. by Barlow on the nature of information and free speech, are important
  921. because they tell us whether our policies and practices serve us
  922. as well as they might.  The issue is not simply hackers vs. system
  923. managers or law enforcers; it is a much larger question about values
  924. and practices in an information society.
  925.  
  926.  
  927. Acknowledgments
  928.  
  929. I am deeply grateful to Peter Denning, Frank Drake, Nathan Estey,
  930. Katie Hafner, Brian Harvey, Steve Lipner, Teresa Lunt, Larry Martin,
  931. Gordon Meyer, Donn Parker, Morgan Schweers, Richard Stallman, and
  932. Alex for their comments on earlier versions of this paper and helpful
  933. discussions; to Richard Stallman for putting me in contact with
  934. hackers; John Draper, Geoff Goodfellow, Brian Reid, Eugene Spafford,
  935. and the hackers for helpful discussions; and Richard Pethia for a
  936. summary of some of his experiences at CERT. The opinions expressed
  937. here, however, are my own and do not necessarily represent those
  938. of the people mentioned above or of Digital Equipment Corporation.
  939.  
  940.  
  941. References
  942.  
  943. ACM90
  944.   ``Just say no,'' Comm. ACM, Vol. 33, No. 5, May 1990, p. 477.
  945.  
  946. Baird87
  947.   Bruce J. Baird, Lindsay L. Baird, Jr., and Ronald P. Ranauro, ``The
  948.   Moral Cracker?,'' Computers and Security, Vol. 6, No. 6, Dec. 1987,
  949.   p. 471-478.
  950.  
  951. Barlow90
  952.   John Barlow, ``Crime and Puzzlement,'' June 1990, to appear in Whole
  953.   Earth Review.
  954.  
  955. Corley89
  956.   Eric Corley, ``The Hacking Fever,'' in Pamela Kane, V.I.R.U.S.
  957.   Protection, Bantam Books, New York, 1989, p. 67-72.
  958.  
  959. DeMaio89
  960.   Harry B. DeMaio, ``Information Ethics, a Practical Approach,''
  961.   Proc. of the 12th National Computer Security Conference, 1989,
  962.   p. 630-633.
  963.  
  964. DenningP89
  965.   Peter J. Denning, ``Worldnet,'' American Scientist, Vol. 77, No. 5,
  966.   Sept.-Oct., 1989.
  967.  
  968. DenningP90
  969.   Peter J. Denning, Computers Under Attack, ACM Press, 1990.
  970.  
  971. Dibbel90
  972.   Julian Dibbel, ``Cyber Thrash,'' SPIN, Vol. 5, No. 12, March 1990.
  973.  
  974. Drucker89
  975.   Peter F. Drucker, The New Realities, Harper and Row, New York, 1989.
  976.  
  977. Felsenstein86
  978.   Lee Felsenstein, ``Real Hackers Don't Rob Banks,'' in full report on
  979.   ACM Panel on Hacking [Lee86].
  980.  
  981. Frenkel87
  982.   Karen A. Frenkel, ``Brian Reid, A Graphics Tale of a Hacker
  983.   Tracker,'' Comm. ACM, Vol. 30, No. 10, Oct. 1987, p. 820-823.
  984.  
  985. Goldstein89
  986.   Emmanuel Goldstein, ``Hackers in Jail,'' 2600 Magazine, Vol. 6, No. 1,
  987.   Spring 1989.
  988.  
  989. Goldstein90
  990.   Emmanuel Goldstein, ``For Your Protection,'' 2600 Magazine, Vol. 7,
  991.   No. 1, Spring 1990.
  992.  
  993. Goodfellow83
  994.   Geoffrey S. Goodfellow, ``Testimony Before the Subcommittee on
  995.   Transportation, Aviation, and Materials on the Subject of
  996.   Telecommunications Security and Privacy,'' Sept. 26, 1983.
  997.  
  998. Hafner90
  999.   Katie Hafner, ``Morris Code,'' The New Republic, Feb. 16, 1990,
  1000.   p. 15-16.
  1001.  
  1002. Harpers90
  1003.   ``Is Computer Hacking a Crime?" Harper's, March 1990, p. 45-57.
  1004.  
  1005. Harvey86
  1006.   Brian Harvey, ``Computer Hacking and Ethics,'' in full report on
  1007.   ACM Panel on Hacking [Lee86].
  1008.  
  1009. HollingerLanza-Kaduce88
  1010.   Richard C. Hollinger and Lonn Lanza-Kaduce, ``The Process of
  1011.   Criminalization: The Case of Computer Crime Laws,'' Criminology,
  1012.   Vol. 26, No. 1, 1988, p. 101-126.
  1013.  
  1014. Huebner89
  1015.   Hans Huebner, ``Re: News from the KGB/Wiley Hackers,'' RISKS Digest,
  1016.   Vol. 8, Issue 37, 1989.
  1017.  
  1018. Landreth89
  1019.   Bill Landreth, Out of the Inner Circle, Tempus, Redmond, WA, 1989.
  1020.  
  1021. Lee86
  1022.   John A. N. Lee, Gerald Segal, and Rosalie Stier, ``Positive
  1023.   Alternatives: A Report on an ACM Panel on Hacking,'' Comm. ACM,
  1024.   Vol. 29, No. 4, April 1986, p. 297-299; full report available from
  1025.   ACM Headquarters, New York.
  1026.  
  1027. Levy84
  1028.   Steven Levy, Hackers, Dell, New York, 1984.
  1029.  
  1030. Markoff90
  1031.   John Markoff, ``Self-Proclaimed `Hacker' Sends Message to Critics,''
  1032.   The New York Times, March 19, 1990.
  1033.  
  1034. Markoff90a
  1035.   John Markoff, ``Drive to Counter Computer Crime Aims at Invaders,''
  1036.   The New York Times, June 3, 1990.
  1037.  
  1038. Martin89
  1039.   Larry Martin, ``Unethical `Computer' Behavior: Who is Responsible?,''
  1040.   Proc. of the 12th National Computer Security Conference, 1989.
  1041.  
  1042. Meyer89
  1043.   Gordon R. Meyer, The Social Organization of the Computer Underground,
  1044.   Master's thesis, Dept. of Sociology, Northern Illinois Univ., Aug.
  1045.   1989.
  1046.  
  1047. MeyerThomas90
  1048.   Gordon Meyer and Jim Thomas, ``The Baudy World of the Byte Bandit:
  1049.   A Postmodernist Interpretation of the Computer Underground,'' Dept.
  1050.   of Sociology, Northern Illinois Univ., DeKalb, IL, March 1990.
  1051.  
  1052. Peters87
  1053.   Tom Peters, Thriving on Chaos, Harper & Row, New York, Chapter VI, S-3,
  1054.   p. 610, 1987.
  1055.  
  1056. Samuelson89
  1057.   Pamela Samuelson, ``Information as Property: Do Ruckelshaus and
  1058.   Carpenter Signal a Changing Direction in Intellectual Property Law?"
  1059.   Catholic University Law Review, Vol. 38, No. 2, Winter 1989, p.
  1060.   365-400.
  1061.  
  1062. Spafford89
  1063.   Eugene H. Spafford, ``The Internet Worm, Crisis and Aftermath,''
  1064.   Comm. ACM, Vol. 32, No. 6, June 1989, p. 678-687.
  1065.  
  1066. Stallman84
  1067.   Richard M. Stallman, Letter to ACM Forum, Comm. ACM, Vol. 27,
  1068.   No. 1, Jan. 1984, p. 8-9.
  1069.  
  1070. Stallman90
  1071.   Richard M. Stallman, ``Against User Interface Copyright'' to appear
  1072.   in Comm. ACM.
  1073.  
  1074. Steele83
  1075.   Guy L. Steele, Jr., Donald R. Woods, Raphael A. Finkel, Mark R.
  1076.   Crispin, Richard M. Stallman, and Geoffrey S. Goodfellow,  The
  1077.   Hacker's Dictionary, Harper & Row, New York, 1983.
  1078.  
  1079. Stoll90
  1080.   Clifford Stoll, The Cuckoo's Egg, Doubleday, 1990.
  1081.  
  1082. Thomas90
  1083.   Jim Thomas, ``Review of The Cuckoo's Egg,'' Computer Underground
  1084.   Digest, Issue #1.06, April 27, 1990.
  1085.  
  1086. ThomasMeyer90
  1087.   Jim Thomas and Gordon Meyer, ``Joe McCarthy in a Leisure Suit:
  1088.   (Witch)Hunting for the Computer Underground,''  Unpublished
  1089.   manuscript, Department of Sociology, Northern Illinois University,
  1090.   DeKalb, IL, 1990; see also the Computer Underground Digest, Vol.
  1091.   1, Issue 11, June 16, 1990.
  1092.  
  1093. .
  1094.